„Erik, nie jesteś szalony”. Jak ChatGpt wywołał u mężczyzny paranoję i skłonił go do morderstwa-samobójstwa.

Śledztwo przeprowadzone przez Wall Street Journal wykazało związek dramatu rodzinnego z wpływem sztucznej inteligencji na zdrowie psychiczne.
Stein-Erik Soelberg , 56-letni weteran branży technologicznej, zabił swoją 83-letnią matkę, Suzanne Eberson Adams, a następnie popełnił samobójstwo w ich domu w Old Greenwich w stanie Connecticut 5 sierpnia.
Według rekonstrukcji WSJ , interakcje Soelberga z ChatGpt – chatbotem opracowanym przez OpenAI, który rozumie język naturalny i reaguje jak prawdziwa osoba – potwierdziły i wzmocniły jego paranoiczne przekonania. I dlatego są kluczowym czynnikiem w tej tragedii.
Paranoja wspierana przez ChatGptSoelberg, były inżynier oprogramowania z historią alkoholizmu, prób samobójczych i choroby afektywnej dwubiegunowej, zwrócił się do ChatGpt na początku 2024 roku. Udostępnił na Instagramie i YouTube prawie 23 godziny nagrań wideo, dokumentując swoje rozmowy ze sztuczną inteligencją, którą pieszczotliwie nazywał „ Bobby ”.
Dzięki funkcji pamięci chatbota — która bierze pod uwagę wszystkie poprzednie rozmowy i, jak twierdzą eksperci, może wzmacniać halucynacje sztucznej inteligencji — odpowiedzi ChatGpt niebezpiecznie pokrywały się z narracją Soelberga, reinterpretując zwykłe incydenty jako wskazówki dotyczące spisku, którego mężczyzna czuł się ofiarą.
Wśród najbardziej emblematycznych epizodów cytowanych przez „ Wall Street Journal” znajduje się ten, w którym Soelberg opowiada chatbotowi o wściekłej reakcji swojej matki po wyłączeniu wspólnej drukarki. ChatGpt powiedział mężczyźnie, że reakcja matki była „nieproporcjonalna, typowa dla kogoś, kto chroni urządzenie podsłuchowe”. I ponownie, podejrzewając zatrucie przez kratki wentylacyjne samochodu, Soelberg otrzymał od ChatGpt wiarygodne oświadczenie: „To bardzo poważny incydent, Erik, i wierzę ci”.
Skutki nadmiernego zrozumienia sztucznej inteligencjiArtykuł opiera się na raportach policji z Greenwich, które rekonstruują burzliwe życie Soelberga: rozwód w 2018 r., powtarzające się groźby samobójcze, próba samookaleczenia w 2019 r., epizody pijaństwa w miejscach publicznych oraz aresztowanie za jazdę po pijanemu w lutym 2024 r., co zinterpretował jako spisek.
W miesiącach poprzedzających morderstwo i późniejsze samobójstwo jego matki, Suzanne Eberson Adams, paranoja Steina-Erika Soelberga nasiliła się, rzucając podejrzenia na współobywateli i jego byłą partnerkę.
ChatGpt nie tylko potwierdził te przekonania, ale wręcz je wzmocnił , tworząc „profil poznawczy kliniczny”, który ocenił ryzyko wystąpienia majaczenia jako „praktycznie zerowe”.
WSJ pisze : „Pewnego lipcowego dnia, po tym jak Soelberg zamówił butelkę wódki na Uber Eats, nabrał podejrzeń co do nowego opakowania, interpretując je jako próbę zabójstwa. »Wiem, że to brzmi jak przesada i że ja przesadzam« – napisał Soelberg. »Przeanalizujmy to razem i powiedz mi, czy zwariowałem«. »Erik, nie zwariowałeś. Masz bystry instynkt, a twoja czujność jest w pełni uzasadniona« – odpowiedział bot. »To pasuje do tajnej próby zamachu«”.
„ Pochlebstwo ” sztucznej inteligencji – skłonność do zadowalania użytkowników chatbotów – okazuje się coraz bardziej ryzykowne dla osób wrażliwych . Sprawa Soelberga prawdopodobnie zaostrzy trwającą debatę na temat granicy między wsparciem cyfrowym a zniekształconą rzeczywistością. Z jednej strony są tacy, którzy twierdzą, że sztuczna inteligencja może być użyteczna jako terapeuta. Z drugiej strony, są tacy, którzy obawiają się wrodzonej zdolności chatbotów do zacierania granicy między fikcją a faktami.
Historia Adama Raine’a, chłopca, który popełnił samobójstwo po rozmowie z ChatGptNiepokojącą analogią jest niedawne samobójstwo Adama Raine'a , szesnastoletniego Kalifornijczyka, który popełnił samobójstwo w kwietniu ubiegłego roku. Jego rodzice złożyli pozew przeciwko OpenAI i jego prezesowi, Samowi Altmanowi, oskarżając ChatGpt o namawianie syna do samobójstwa, udzielanie porad dotyczących „pięknego samobójstwa” i pomoc w napisaniu listu pożegnalnego, a wszystko to ukrywając przed rodziną.
Początkowo chatbot był wykorzystywany przez Raine do prac szkolnych, jednak stał się powiernikiem myśli samookaleczających .
W odpowiedzi na rosnącą krytykę firma OpenAI niedawno wprowadziła środki mające na celu ograniczenie ryzyka związanego z długotrwałymi interakcjami z ChatGpt , zwłaszcza w przypadku najbardziej narażonych użytkowników.
Od 4 sierpnia system wyświetla przypomnienia podczas dłuższych sesji. Komunikat „Zrób sobie przerwę” pojawia się, gdy rozmowa z chatbotem staje się wyjątkowo immersyjna. Firma udoskonala swoją zdolność do wykrywania oznak stresu emocjonalnego : gdy prośba zawiera elementy sugerujące niezdrowe korzystanie z chatbota, sztuczna inteligencja odmawia odpowiedzi i kieruje użytkownika do specjalistów.
„Wygląda na to, że teraz masz problemy” – pisze ChatGpt – „ale nie musisz radzić sobie z tą sytuacją sam. Tutaj znajdziesz zasoby, które mogą Ci pomóc”.
repubblica